eas

云上AI推理平台全掌握(6):大规模EP专家并行

近年来,混合专家模型(Mixture of Experts,MoE)在大型语言模型领域展现出巨大潜力。MoE 架构是一种高效扩展模型规模的新技术,利用了“分而治之”的思想,设计了一系列不同的子网络(称为“专家”),通过门控网络来动态决定当前的输入应该交由哪几个

推理 moe ep eas decode 2025-09-27 12:12  4

一颗能自供电的芯片

Hot Chips 2025 大会上充斥着关于高功率设备的演示。人工智能每颗芯片的功耗高达数百瓦,需要复杂的供电和同样复杂的散热系统。这与那些必须使用标准壁式插座或移动设备电池的消费类设备截然不同。虽然在壁式插座或电池的限制下工作很困难,但与完全没有电源的情况

芯片 soc eas wrx everactive 2025-09-20 10:40  9

脂蛋白(a)越高,心梗损伤反而可能越轻?

用药小妙招撰文:龙蕾引言在2025年欧洲心脏病学会(ESC)年会上,来自哥本哈根大学医院的Yan Zhou博士报告了一项关于脂蛋白(a)[Lp(a)]在ST段抬高型心肌梗死(STEMI)后心肌损伤和临床结局中作用的重要研究。这项作为PULSE-MI试验的子研究

心梗 脂蛋白 esc eas zhou 2025-09-08 19:31  4